DeepSeek 模型兼容性检测

检查你的设备是否能运行不同规模的 DeepSeek 模型

操作系统

请选择你电脑的配置

💻系统内存 (RAM): 16 GB
8GB16GB32GB64GB128GB
🎮显存 (VRAM): 8 GB
0GB8GB16GB32GB64GB

模型运行预测

关键说明

显存计算公式

显存 ≈ 参数量 × 精度位数(Bytes)+ 激活值占用

例:7B FP16 模型 ≈ 7B × 2 Bytes = 14 GB(未含激活值)

实际部署需预留 20% 冗余(如 7B FP16 建议 18GB+ 显存)

内存要求

内存需加载模型权重(约等于显存)及运行时数据,建议为显存的 1.5 倍

量化影响

8-bit 量化显存占用减半,4-bit 再减半,但可能损失 1-3% 精度

Ollama 默认使用 4-bit 量化模型,显存占用约为 FP16 的 1/4

DeepSeek R1模型: 1.5B

GPU 运行状态:
✅ 满足运行
最低3GB显存 (GTX 1060+)
CPU 运行状态:
✅ 满足运行
需4核CPU + 5GB内存
模型大小: 1.1GB
CPU4核+ CPU
存储10GB+ 存储空间
入门级模型,适合个人设备
ollama run deepseek-r1:1.5b

DeepSeek R1模型: 7B

GPU 运行状态:
✅ 满足运行
最低6GB显存 (GTX 1650+)
CPU 运行状态:
✅ 满足运行
需8核CPU + 9GB内存
模型大小: 4.7GB
CPU8核+ (i7/Ryzen 7)
存储16GB+ 存储空间
性能均衡,适合开发使用
ollama run deepseek-r1:7b

DeepSeek R1模型: 8B

GPU 运行状态:
✅ 满足运行
最低8GB显存 (GTX 1660+)
CPU 运行状态:
✅ 满足运行
需8核CPU + 10GB内存
模型大小: 4.9GB
CPU8核+ CPU
存储30GB+ 存储空间
性能优于7B,推荐首选
ollama run deepseek-r1:8b

DeepSeek R1模型: 14B

GPU 运行状态:
❌ 无法运行
最低12GB显存 (RTX 3070+)
CPU 运行状态:
✅ 满足运行
需12核CPU + 16GB内存
模型大小: 9.0GB
CPU12核+ (Xeon/EPYC)
存储30GB+ 存储空间
企业级性能,需要强劲设备
ollama run deepseek-r1:14b

DeepSeek R1模型: 32B

GPU 运行状态:
❌ 无法运行
推荐24GB显存 (RTX 4090)
CPU 运行状态:
❌ 无法运行
需16核CPU + 36GB内存
模型大小: 20GB
CPU16核+ 服务器级CPU
存储50GB+ 存储空间
高端模型,建议多卡部署
ollama run deepseek-r1:32b

DeepSeek R1模型: 70B

GPU 运行状态:
❌ 无法运行
需要多卡 (2×A100)
CPU 运行状态:
❌ 无法运行
需32核CPU + 75GB内存
模型大小: 43GB
CPU32核+ 企业级CPU
存储100GB+ 存储空间
顶级性能,适合分布式部署
ollama run deepseek-r1:70b

网盘下载

📥

ollama 网盘下载(国内加速)